长短期记忆(LSTM):一种循环神经网络(RNN)的改进结构,通过“门控机制”在序列数据中更好地保留长期信息、缓解梯度消失问题,常用于语言、语音、时间序列预测等任务。
/ˌlɔːŋ ˌʃɔːrt ˈtɜːrm ˈmɛməri/
LSTM is widely used in speech recognition.
LSTM 广泛用于语音识别。
Because LSTM can learn long-range dependencies, it often outperforms basic RNNs on tasks like machine translation and financial time-series forecasting.
由于 LSTM 能学习长距离依赖关系,它在机器翻译、金融时间序列预测等任务上常常优于基础 RNN。
“Long Short-Term Memory”这一名称借用了认知心理学中“短期/长期记忆”的概念,用来形象说明该结构既能处理短期信息,也能在需要时保留更长期的状态。LSTM 作为神经网络结构在 1990 年代由 Sepp Hochreiter 与 Jürgen Schmidhuber 系统提出并推广,核心是用输入门、遗忘门、输出门来控制信息的写入、保留与读出。